mittlerer Informationsgehalt
- mittlerer Informationsgehalt
- informacijos entropija
statusas T sritis fizika
atitikmenys: angl. entropy of information source
vok. Informationsentropie, f; mittlerer Informationsgehalt, m
rus. информационная энтропия, f; энтропия информации, f
pranc. entropie informationnelle, f; néguentropie, f
Fizikos terminų žodynas : lietuvių, anglų, prancūzų, vokiečių ir rusų kalbomis. – Vilnius : Mokslo ir enciklopedijų leidybos institutas.
Vilius Palenskis, Vytautas Valiukėnas, Valerijonas Žalkauskas, Pranas Juozas Žilinskas.
2007.
Look at other dictionaries:
Informationsgehalt — Der Begriff der Information, wie er in der Informationstheorie nach Shannon[1] verwendet wird, ist streng von dem gewöhnlichen Gebrauch dieses Begriffes zu unterscheiden. Insbesondere darf darin die Information nicht mit dem Begriff der Bedeutung … Deutsch Wikipedia
Überraschungswert — Der Begriff der Information, wie er in der Informationstheorie nach Shannon[1] verwendet wird, ist streng von dem gewöhnlichen Gebrauch dieses Begriffes zu unterscheiden. Insbesondere darf darin die Information nicht mit dem Begriff der Bedeutung … Deutsch Wikipedia
Arithmetische Codierung — Das arithmetische Kodieren wird unter anderem zur verlustfreien Datenkompression eingesetzt und ist eine Form der Entropiekodierung. Dieser Artikel beschreibt nur, wie man mit einem gegebenen Satz von Zeichen Wahrscheinlichkeits Paaren einzelne… … Deutsch Wikipedia
Arithmetische Kodierung — Das arithmetische Kodieren wird unter anderem zur verlustfreien Datenkompression eingesetzt und ist eine Form der Entropiekodierung. Dieser Artikel beschreibt nur, wie man mit einem gegebenen Satz von Zeichen Wahrscheinlichkeits Paaren einzelne… … Deutsch Wikipedia
Gegenseitige Information — Transinformation oder gegenseitige Information ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur… … Deutsch Wikipedia
Mutual Information — Transinformation oder gegenseitige Information ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur… … Deutsch Wikipedia
Entropie — Maß der Unordnung; Maß für den Informationsgehalt * * * En|tro|pie 〈f. 19〉 1. 〈Phys.〉 Zustandsgröße der Thermodynamik 2. Maß für die „Unordnung“ in einem abgeschlossenen System 3. 〈Kommunikationstheorie〉 Größe des Nachrichtengehaltes einer nach… … Universal-Lexikon
Arithmetisches Kodieren — Das arithmetische Kodieren wird unter anderem zur verlustfreien Datenkompression eingesetzt und ist eine Form der Entropiekodierung. Dieser Artikel beschreibt nur, wie man mit einem gegebenen Satz von Zeichen Wahrscheinlichkeits Paaren einzelne… … Deutsch Wikipedia
Transinformation — oder gegenseitige Information ist eine Größe aus der Informationstheorie, die die Stärke des statistischen Zusammenhangs zweier Zufallsgrößen angibt. Die Transinformation wird auch als Synentropie bezeichnet. Im Gegensatz zur Synentropie einer… … Deutsch Wikipedia
Fano-Code — Die Shannon Fano Kodierung und Huffman Kodierung sind eine Art der Entropiekodierung. Dieser Artikel beschreibt, wie zu einem gegebenen Satz von Zeichen Wahrscheinlichkeits Paaren die Kodierung erstellt werden kann, welche eine möglichst kleine… … Deutsch Wikipedia